[Chaos CD]
[Datenschleuder] [55]    (Netz-) Agenten
[Gescannte Version] [ -- ] [ ++ ] [Suchen]  

 

(Netz-) Agenten

Vertrauen ist gut, Kontrolle ist besser
In der Datenwelt tummelt sich eine Vielzahl von Computerprogrammen, die weitgehend autonom eine bestimmte Aufgabe ausführen und dabei im Auftrag einer einzelnen Nutzerin oder einer Organisation tätig sind. Software-Agenten, Roboter, Bots, Web-Crawler und Spider sind maschinelle Kreationen, die als Suchmaschine im WWW und in den News bei der Informationssuche helfen, mit denen man als Weizenbaum-Tochter ELIZA oder in MUDs und im IRC nett plaudern kann oder die als "lernfähiger" persönlicher Agent das Postfach sortieren, auf interessante Angebote hinweisen und mit anderen Agenten Termine für ihre Agentenführer ausmachen.

Viele Fragen bleiben noch offen. Wie weit können und sollen die Handlungsfähigkeiten elektronischer Agenten als Stellvertreter, Assistent oder Gegenspieler menschlicher Nutzer reichen? Welche Aspekte der Gestaltung des Netzverkehrs können und sollen an Agenten delegiert werden? Wer entscheidet darüber, wofür und wo Agenten eingesetzt werden? Wie läßt sich erreichen, daß die Beanspruchung von Netzressourcen, die mit dem Auftreten von immer mehr Bots, Agents und Spiders verbunden ist, möglichst gering bleibt? An welche Regeln sollten sich die Konstrukteure von Robotern halten? Was müßte eine Netiquette für Software-Agenten beinhalten, die sie zu guten Net Citizens macht? Wie sollten sich Agenten in der Interaktion mit menschlichen Nutzern verhalten ("Talk to my agent") und wie in der Interaktion mit anderen Agenten

("My agent talks to your agent")? Wer ist verantwortlich für die Aktionen und Transaktionen von Agenten? Wem gehören die personenbezogenen Daten, die die Agenten sammeln, und wer darf diese Daten für welche Zwecke verwenden? Sind diese Kreaturen "mostly harmless", oder ist letztlich nur den selbstgemachten Agenten zu trauen?

Die Netzgemeinde hat in den letzten Jahren eine Reihe von Lösungsvorschlägen für einige dieser Fragen entwickelt. Diese Vorschläge zielen in der Regel auf Anleitungen für die Konstruktion von Software-Agenten und adressieren ihre Entwickler- So gibt es inzwischen einen "guide for robot-writers", der die Netzbelastung durch falsche oder ungeschickte Programmierung vermeiden helfen möchte. In Anlehnung an Isaac Asimovs Robotergesetze wurden "laws of softbotics" entworfen. Ethische Leitlinien für das Auftreten und Verhalten von Agenten wurden entwickelt.

Auf der Seite derjenigen, die von dem Treiben von Software-Agenten betroffen sind, gibt es eher noch wenige Einflußmöglichkeiten. Die Suchmaschinen für die WWW-Navigationshilfedatenbanken können bei schlechter Programmlerung den Betrieb der von ihnen durchforsteten WWW-Sites empfindlich beeinträchtigen. Ihr Besuch kommt unangemeldet, und die gesammelten Informationen werden ungefragt in der heimatlichen Datenbank der Suchmaschine gespeichert. Ein Robot Exclusion Standard erlaubt es beispielsweise WWW-Anbietern umherschweifenden Spidern den Besuch ihrer Seiten zu verbieten,

Je mehr Aufgaben an Agenten delegiert werden, welche diese dann eigenständig durchführen, desto mehr besteht das Risiko, daß aus dienstbaren Nützlingen unangenehme Schädlinge werden. Die vermeintlichen Heinzelmännchen können durch zu gro&selig;es Datenaufkommen den allgemeinen Netzverkehr empfindlich stören, wie es etwa bei sich unkontrolliert 'virenartig' vermehrenden Programmen vorkommt, Sie können entweder gewollt oder unbeabsichtig andere Nutzer belästigen, in dem sie z.B. private Postfächer unaufgefordert mit Werbung oder Hetzschriften vollstopfen.

Ein schlecht programmierter autonomer persönlicher Agent löscht oder unterschlägt aus "Unwissenheit" wichtige Informationen. Solches Fehlverhalten kann durch verbesserte Programmierung ausgeschlossen werden; eine andere Art von Fehlverhalten kann jedoch einprogrammiert sein: Software-Agenten können ihren offiziellen Auftraggebern schlechte Dienste erweisen, in dem sie inoffiziell noch anderen Auftraggebern zuarbeiten. Als potentielle Interessenten für Doppelagenten wären etwa Markt- und Meinungsforscher, Firmen, Glaubensgemeinschaften, Regierungen und deren Geheimdienste oder Steuerfahndungen denkbar.

Datenbanksuchmaschinen des WWW könnten beispielsweise aus der unübersehbaren Fülle des WWW bestimmte Informationen herauswählen oder unterschlagen,ohne da&selig; dies den Nutzern sofort auffallen würde. Irgendwann könnte man Verdacht schöpfen, wenn z.B, immer wieder dieselben Firmenangebote genannt werden oder zu einem brisanten Thema plötzlich keine WWW-Hinweise mehr ausgegeben würden. Oder man stelle sich ein arglos erworbenes Softwarepäckchen vor, das die lästige Arbeit des Netzanschlusses übernehmen soll und das aber gleichzeitig unaufgefordert Informationen über Inhalte der Benutzerfestplatte an Dritte ins Netz gibt.

Die freiwillige Selbstkontrolle und der Appell an die Eigenverantwortung von Entwicklern und Besitzern bzw. Anwendern von Software-Agenten reichen in Zeiten, die auch in der Netzwelt rauher werden, wahrscheinlich nicht aus. Sinnvoll könnte es daher sein, eine unabhäneige Prüfinstanz etwa nach dem Vorbild der Stiftung Warentest einzurichten. Diese Institution könnte als Anwalt der Netznutzer das Gebaren von Software-Agenten stichprobenartig kontrollieren. Die Ergebnisse der Prüftätigkeit sollten im Netz verbreitet werden.

Eine Hürde für Prüfinstanzen nichtstaatlicher oder auch staatlicher Herkunft liegt darin, daß nur von solchen Softwareprodukten der Tätigkeitsbereich vollständig durchschaubar ist, bei denen neben dem Binärcode auch der Quellcode für Prüfzwecke zur Verfügung steht. Bei kommerziellen Softwareprodukten wird der Quellcode von den Herstellern zurückbehalten, denn wenn sie die Baupläne bzw. Rezepturen für ihr Produkt herausgeben würden, könnten Konkurrenten oder Kunden ihr Produkt leicht nachbauen. In der pharmazeutischen Industrie muß vor staatlichen Kontrollbehörden die Unschädlichkeit einer offenzulegenden Rezeptur nachgewiesen werden. Vergleichbares für den Bereich Software anzustreben wäre in Anbetracht der nichtvorhandenen Einflüsse auf Leib und Leben natüreich völlig übertrieben und praktisch wegen der Internationalisierung des Softwaremarktes nicht durchführbar.

Selbst wenn Übereinstimmung herrschte, daß als eindeutiges Prüfkriterium gelten soll "Ein Software-Agent hat nicht mehr als das zu auszuführen, was er auszuführen verspricht", müßten die Nutzer bei solch einer zentralisierten staatlichen oder nicht-staatlichen Lösung sich auf diese Zentralinstanz verlassen. Internettypisch und bewährt sind dagegen dezentrale Problemlösungen, die im Falle von Softwarekontrolle darin bestehen können, daß auf freie Software mit veröffentlichten Quellprogrammen zurückgegriffen wird.

Die Software-Agenten sind unter uns, und es werden immer mehr. Sie können die Handlungsfähigkeiten menschlicher Nutzer ebenso unterstützen und erweitern, wie auch einschränken. Ihr Risikopotential ist beträcht]ich.

Die Koexistenz menschlicher und nichtmenschlicher Akteure in der Netzwelt und die damit verbundenen grundlegenden Fragen nach den Bedingungen der Teilhabe der maschinellen Kreaturen bilden eine netzpolitisehe Leerstelle. Eine breitere, netz-öffentliche Diskussion bleibt zuwünschen.

Sabine Helmers & Ute Hoffmann
s@duplox.wz-berlin.de, uteh@medea.wz-berlin.de

 

  [Chaos CD]
[Datenschleuder] [55]    (Netz-) Agenten
[Gescannte Version] [ -- ] [ ++ ] [Suchen]